فيسبوك- إمبراطورية أرباح أم ساحة لتضليل وتحريض؟

المؤلف: د. معتز الخطيب08.13.2025
فيسبوك- إمبراطورية أرباح أم ساحة لتضليل وتحريض؟

في مايو/أيار من العام 2021، احتدم جدل واسع النطاق حول الانحيازات السياسية المزعومة لمنصة فيسبوك، وذلك على خلفية قيامها بحظر العديد من التعليقات والحسابات التي تعود لفلسطينيين أو مؤيدين لهم خلال فترة القصف الإسرائيلي المكثف على قطاع غزة. هذا الإجراء أثار حفيظة ناشطين، ما دفعهم لإطلاق حملة مضادة ضد فيسبوك، مطالبين بوقف ما وصفوه بـ"الإعدام الرقمي".

في ذلك الوقت، نفى أحد المهندسين المصريين العاملين في فيسبوك هذه الاتهامات، مؤكدًا أن المنصة تعتمد على "تقنيات الذكاء الاصطناعي" المتطورة لتحديد المحتوى الذي يخالف سياساتها المعلنة، والتي تتضمن مكافحة خطاب الكراهية، التحريض على العنف، والعداء العنصري. وأشار المهندس إلى أن هذه التقنيات "تتعلم من البيانات والمعلومات المتاحة"، وأن آلياتها معقدة، مما يجعل فهم كيفية عملها بدقة أمرًا صعبًا. ومع ذلك، اعترف بوجود هامش للخطأ، نظرًا لعدم وجود تقنية تتمتع بالكفاءة المطلقة، واصفًا "تنقيح المحتوى" بأنه "مشكلة معقدة وأصعب بكثير مما يتخيله البعض".

كما أضاف أن الإحساس بالتحيز الذي شعر به البعض هو نتيجة لـ "تأكيد التحيز"، أي الاعتقاد المسبق بوجود تحيز، والذي يتم تأكيده من خلال أمثلة ناتجة عن أخطاء هامشية.

هذه الحجة تعيد إلى الأذهان حجة سابقة قدمها يان ليكون، رئيس فريق علماء الذكاء الاصطناعي في فيسبوك، والذي لعب دورًا محوريًا في تشكيل التقنية والنهج المعتمدين في هذه المنصة واسعة التأثير. ففي رده على الانتقادات التي وجهت لأداء المنصة خلال جائحة كورونا وتأثيرها في نشر المعلومات المضللة حول الفيروس والموقف من اللقاح، أكد ليكون أن فيسبوك ليس السبب في حالة الاستقطاب المجتمعي أو ما يسمى بـ "فقاعات التصفية"، التي تخلق بؤر اهتمام ضيقة تجذب المستخدمين. وشدد على أن "الدراسات الأكثر جدية لا تثبت هذا".

كما نفى أن يكون فيسبوك يستفيد من انتشار المعلومات المضللة، موضحًا أن المنصة تستخدم تقنية الذكاء الاصطناعي لتصفية ثلاثة أنواع من المحتوى:

  • خطاب الكراهية والتحريض على العنف.
  • التنمر.
  • المعلومات المضللة التي تهدد السلامة العامة أو العملية الديمقراطية.

وأكد ليكون أن فيسبوك "ليس حكمًا على الحقيقة السياسية"، وأن تدخله في هذا المجال سيثير "أسئلة جدية حول تصوراتنا عن الأخلاق والديمقراطية الليبرالية".

يعتمد فيسبوك على تقنيات الذكاء الاصطناعي التي تستخدم كميات هائلة من بيانات الخصوصية التي يُفرض على مستخدمي فيسبوك الإذن باستغلالها، وهو ما يعرضهم للانكشاف أمام الشركة نفسها من جهة، ويحولهم إلى سلعة للتربح ويجعلهم أهدافًا للتأثير من جهة أخرى، وذلك من خلال تحليل أفعالهم وأفكارهم وانفعالاتهم التي توفرها بياناتهم، وبهذا يتعاظم تأثيره ونفوذه وأرباحه.

بيد أن ديفيد لور قد فند حجة يان ليكون في دراسة له، مبينًا أن فيسبوك حول حملات التضليل الإعلامي ونظريات المؤامرة التي تروجها الجماعات المتطرفة إلى اتجاه سائد، وعزز عودة ظهور حركة مناهضة اللقاح ضد كورونا، وأثار تساؤلات واسعة حول تدابير الصحة العامة الخاصة بالجائحة. كما أسهم في انتشار الادعاء الكاذب بأن الانتخابات الرئاسية الأميركية عام 2020 قد سُرقت من خلال تزوير الناخبين، وهي المسألة التي أدت فيما بعد إلى اقتحام مبنى الكونغرس.

وقد طرح ديفيد لور أربع نقاط أساسية حول دور فيسبوك:

أولًا: أنه شكل منصة للمتنمرين من جميع المستويات وعزز تسلطهم، بدءًا من المدارس ووصولًا إلى الطغاة الذين يستخدمون المنصة لنشر المعلومات المضللة، ومراقبة منتقديهم، واستمرار العنف، والتحريض على الإبادة الجماعية.

ثانيًا: مكّن من الاحتيال على المعلنين وغرف الأخبار بشكل منهجي وعالمي من خلال مشاركة الفيديوهات المزورة والإحصاءات الزائفة الخاصة بنشاط المستخدمين.

ثالثًا: أنه يعكس أجندة سياسية تتبناها مجموعة صغيرة من قادة الشركات الذين يعرقلون سياسات الحوكمة الرشيدة.

رابعًا: السلطة الاحتكارية التي يتمتع بها فيسبوك للحفاظ على ريادته في المشهد الإعلامي الاجتماعي، في غياب إشراف تنظيمي فعال، أو من دون حماية للخصوصية، أو تدابير للسلامة، أو مواطنة رقمية مسؤولة.

في المقابل، أعادت وثائق فيسبوك المسربة من قبل فرانسيس هوغن، مهندسة البيانات والموظفة السابقة في الشركة، النقاش إلى جذوره. فقد أثارت هوغن جدلًا واسعًا حول منهج عمل فيسبوك، مؤكدة أنه يعطي الأولوية للربح المادي على سلامة مستخدميه، وأن الخوارزميات التي يعتمدها في تصفية المحتوى الضار "عمياء". وكانت صحيفة "وول ستريت جورنال" قد نشرت أجزاء من هذه الوثائق في سبتمبر/أيلول الماضي، وكشفت عن هوية مصدرها في مطلع أكتوبر/تشرين الأول الحالي. وتؤكد أقوال هوغن ووثائقها ما سبق أن قاله منتقدو فيسبوك من أنه قد استفاد بشكل كبير من المعلومات المضللة؛ لأنها تحقق المزيد من التفاعل، وبالتالي المزيد من الأرباح، وهو ما يتماشى مع تاريخ تطور فيسبوك حتى تحول إلى إمبراطورية رقمية.

في هذه الإمبراطورية، نحن أمام عالم موازٍ له قوانينه ومنطقه الخاص، وهو عابر للدول القطرية أو الوطنية، ويمثل نموذجًا للعولمة. ويقوم منطقه الخاص على عدة أمور رئيسة:

  1. التواصل الشبكي التفاعلي، حيث تترجم زيادة التفاعل إلى زيادة في السلطة والتأثير من جهة، وزيادة في المال والربح من جهة أخرى. ويتميز هذا التفاعل بالوضوح والمباشرة، حيث يظهر للعيان وقابل للقياس (عدد الإعجابات والتعليقات وإعادة المشاركة).
  2. الاعتماد على تقنيات الذكاء الاصطناعي التي تستخدم كمًا هائلًا من بيانات الخصوصية التي يُفرض على مستخدمي فيسبوك الإذن باستغلالها. وهذا يعرضهم للانكشاف أمام الشركة نفسها من جهة، ويحولهم إلى مادة للتربح ويجعلهم أهدافًا للتأثير من جهة أخرى، وذلك من خلال تحليل أفعالهم وأفكارهم وانفعالاتهم التي توفرها بياناتهم. وبهذا يتعاظم تأثيره ونفوذه وأرباحه. ومن الضروري الأخذ في الاعتبار أن مفهوم الفعل في عالم فيسبوك ووسائل التواصل الاجتماعي أوسع بكثير من الفعل التقليدي؛ فحتى المراقب عن بعد أو المتصفح السلبي هو فاعل يوفر مجموعة من البيانات والمعطيات من دون حاجة إلى أن يعلق أو يشارك أو يعبر عن انفعالاته بوسيلة من وسائل التعبير التي يقترحها فيسبوك.
  3. زيادة معدل الانخراط والتفاعل معيار حاكم ومركزي في منطق فيسبوك، وهو يعكس سمة بنيوية في فلسفة هذه الإمبراطورية وأهدافها الوظيفية والربحية على السواء. فحتى في حين يعتمد فيسبوك وسيلة تقديم البلاغات لتحديد المحتوى السلبي بناءً على تقييمات الجمهور، وبلوغ ذلك حدًا أو عتبة محددة؛ بوصفه معيارًا لحجب واستبعاد المحتوى الكاذب والمضلل، فهو في الظاهر يقوم بعمل ديمقراطي قد يبرئه من التحيز إذ يلقي الكرة في ملعب مستخدميه، ولكنه في الواقع يفعل ذلك لحصد المزيد من التفاعل، وبالتالي المزيد من الأرباح؛ لأنه سيستفيد أيضًا من الأخطاء أو الاستقطابات والاستقطابات المضادة في عملية تقويم المحتوى.
  4. الاحتكار بحكم الأمر الواقع، والتأثير العميق في شؤون الأفراد والدول والعالم، وهو تأثير غير مسبوق في تاريخ البشرية. فتأثير فيسبوك بوصفه منصة تفاعلية لم يعد محل جدل أو تشكيك، بل إن هذه الإمبراطورية نفسها تجري أبحاثًا للاستثمار في هذا التأثير من أجل تطوير خدماتها وتعظيم أرباحها عبر طريقتين: استقطاب شرائح أوسع (المزيد من المواطنين في هذا العالم الموازي)، وزيادة معدل الاستخدام والمدة الزمنية التي يقضيها المستخدم على المنصة ومنتجاتها الأخرى المرتبطة بها.

وفي هذا السياق، كانت شركة فيسبوك تجري دراسات حول تأثير شبكة "إنستغرام" التابعة لها على المراهقين، وهو ما كشفت عنه الوثائق التي سربتها الموظفة السابقة. وتبين أن 32% من الفتيات المراهقات شعرن بأن استخدام "إنستغرام" عزز لديهن صورة أكثر سلبية عن أجسادهن. وحسب الوثائق، فإن جونا بيرتي مؤسس موقع (BuzzFeed) كان قد أرسل في خريف 2018 رسالة إلكترونية إلى مسؤول كبير في فيسبوك يخبره فيها أن المحتوى الأكثر إثارة للانقسام الذي أنتجه صحفيوه كان ينتشر بسرعة وسهولة عبر المنصة، ما أوجد حافزًا لإنتاج المزيد منه؛ نظرًا إلى زيادة التفاعل معه.

وقد أثبت مقال علمي كتبه كل من آدم كراميرا وجيمي غيلوريب وجيفري هانكوك، ونُشر في مجلة (Proceedings of the National Academy of Sciences of the United States of America) سنة 2014، وجود ما أسماه "عدوى عاطفية واسعة النطاق" تتسبب بها هذه الشبكات الاجتماعية. وتوصل الباحثون إلى هذه النتيجة عبر دراسة تجريبية تندرج ضمن مجال ناشئ من أبحاث العلوم الاجتماعية يتعلق بقضايا الخصوصية الشخصية.

ووفقًا لهذه الدراسة، يمكن نقل الحالة العاطفية لدى مستخدم هذه الشبكات إلى الآخرين، ما يؤدي إلى أن الناس يختبرون المشاعر نفسها دون وعي منهم. وتقدم الدراسة دليلًا تجريبيًا على أن "العدوى العاطفية" تحدث حتى في غياب التفاعل المباشر بين المستخدمين، أي حتى في حالة الغياب التام لأي إشارات غير لفظية؛ إذ يكفي التعرض لتعليقات صديق يعبر عن عاطفة ما للتأثر به والشعور بمثل شعوره.

وأمام هذه المعطيات، يتبادر إلى الأذهان سؤالان محوريان:

السؤال الأول: كيف يسهم فيسبوك في انتشار المحتويات السلبية والمتطرفة وخطابات الكراهية والمعلومات المضللة؟ وهذا التساؤل يثير حيرة الإعلام التقليدي والصحافة التقليدية من حيث كيفية التعاطي معه، وقد أقر بأهميته نائب رئيس فيسبوك نِك كليغ، في تعليق على الوثائق المسربة والانتقادات لأداء الموقع.

السؤال الثاني والأهم: كيف نتصرف حيال النتائج التي يتم التوصل إليها بعد الإجابة عن السؤال الأول، والتي تفرض على فيسبوك على وجه الخصوص اتخاذ خيارات محددة، والموازنة بين مصالح تبدو متناقضة؟ بالإضافة إلى ذلك، هل يجب علينا إنشاء جهة مستقلة تراقب هذا الأداء وفق معايير مستقلة؟ وذلك لأننا أمام عالم مواز يسعى لفرض قوانينه الخاصة على العالم أجمع، ويتأثر به الجميع، أي إن المسألة برمتها تتعلق بالمصلحة الإنسانية العامة.

والآن، لنعود إلى تقنيات الذكاء الاصطناعي التي استخدمت محورًا أساسيًا في الحجة التي قدمها المدافعون عن فيسبوك وموضوعيته (وهم من العاملين فيه)، خصوصًا أن هذه التقنيات تلعب دورًا كبيرًا اليوم في عمل فيسبوك. ومع ذلك، فهي ليست مستقلة تمامًا عن العامل البشري حتى الآن، حيث يتم تعليمها بإشراف خبراء أو مزودي بيانات، وهو ما يسمى بالتعليم الخاضع للإشراف. وهذا يعني أن الذكاء الاصطناعي لا يؤسس نفسه بنفسه ابتداءً (ما زالت الدراسات عن تطورات تطبيقات الذكاء الاصطناعي التي يمكن أن تؤدي به إلى أن يخرج عن السيطرة ويصبح محكومًا بنفسه ذاتيًا محل نقاش).

فمزودو البيانات لهم دور حاسم في عملية التحليل النهائية التي تقوم بها أجهزة الحاسوب التي لا تعمل من فراغ. وصحيح أنه يصعب حتى الآن فهم التفاصيل الدقيقة لكيفية قيام الأجهزة بعملية التحليل التي تحاكي ذكاء الإنسان ولكن بقدرات أوسع بكثير، غير أن هناك أمرين حاسمين:

الأول: البيانات المعطاة ابتداءً للقيام بالتحليل.

والثاني: السياسات التي ستُبنى على نتائج هذا التحليل، والتي ستعتمد على اتخاذ خيارات مكلفة من قبل الشركة، خصوصًا أن فيسبوك يستخدم تقنيات الذكاء الاصطناعي لتدريب الخوارزميات الخاصة به، وتحليل المحتوى المنشور على المنصة، والخوارزميات لها دور حاسم في ما نناقشه هنا والسياسات المبنية عليها.

فمن خلال تقنيات الذكاء الاصطناعي وبيانات المستخدمين وتعليقاتهم، وطرائق تفاعلهم مع تعليقات الآخرين (حتى في حالة الاكتفاء بمجرد التصفح والمراقبة فقط) يمكن تحديد خيارات المستخدمين وميولهم (وما يهمهم وما لا يهمهم)، ومن ثم التحكم بالتفضيلات التي تظهر لهم عبر صفحتهم وترتيب الأولويات حسب دائرة اهتماماتهم، وهذا يعني أن الخوارزميات تحدد الخيارات التي تُعرض للمستخدم وفق (نوعية المحتوى) الذي تفاعل معه المستخدم بصورة أكبر، وهنا يأتي الدور المحوري لفيسبوك في تحديد شكل الخوارزميات وخيارات عملها حسب نوعية المحتوى. فهل سيكون المعيار الحاسم والمحدد للسياسات لدى الشركة هنا هو "كثرة التفاعل" أو "مضمون المنشورات"؟

فآلية عمل الذكاء الاصطناعي هنا بناءً على واحد من المعيارين السابقين (الأكثر تفاعلًا أو حسب المضمون غير المفضّل)، هي آلية موضوعية بالنظر إلى عمل التقنية نفسها، ولكنها ليست موضوعية بالنظر إلى المعايير والمحددات التي يفرضها معلمو الذكاء الاصطناعي نفسه وموجهوه. ثم في حالة ما إذا اعتمدت الشركة سياسة المضي وفق تعزيز معيار "الأكثر تفاعلًا" ومن ثم الأعظم ربحًا؛ فإننا سنكون أمام إشاعة للمحتوى السلبي؛ لأنه حينئذ سيحقق مقاصد الشركة ومعايير النجاح والنمو لديها.

وقد كشفت هوغن بالفعل عن أن فيسبوك أجرى أبحاثًا توصل بها إلى أن المحتوى السلبي والمثير للغضب والانقسام يحظى بأهمية أكبر لدى المستخدمين؛ وذلك يعني أن مشاعر الغضب والفرقة تتقدم على أي مشاعر أخرى تفاعليًا، فالمحتوى الذي يحمل بذور العنف والكراهية يُبقي المستخدمين أوقاتًا أطول على المنصة، وهو يصب في مصلحة الشركة وأهدافها.

تثير هذه المعطيات إذن مسألة إشكالية، وهي تضارب المصالح؛ حيث هناك تعارض بين معيار زيادة التفاعل (ومن ثم جذب المستخدمين وإبقاؤهم مدة أطول وعرض المزيد من الإعلانات، والحفاظ على نمو الموقع، وزيادة قيمته السوقية) من جهة، ومعيار سلامة مجتمع فيسبوك وأمانه من جهة أخرى. أي إن القائمين على إمبراطورية فيسبوك أمام خيار الترجيح بين ما هو مفيد للجمهور وما هو مفيد ومربحً لهم، ومن ثم تحديد معايير الترجيح، وهذه نقطة أبعد مدى من النقاش الذي أثير أثناء العدوان الإسرائيلي على غزة ومسألة التحيزات السياسية لمصلحة إسرائيل (وهي صحيحة بالفعل)؛ إذ إنه يتناول منطق عمل فيسبوك نفسه.

وكان فيسبوك قد أجرى تعديلات على خوارزمياته قبل الانتخابات الرئاسية الأميركية في نوفمبر/تشرين الثاني 2020، وذلك للحد من انتشار المعلومات المضللة، ولكن هوغن كشفت أنه بمجرد انتهاء الانتخابات أعاد فيسبوك الخوارزميات كما كانت عليه من قبل. ونحن هنا أمام تفسيرين:

الأول: يقدمه مارك زوكربيرغ الذي يزعم أن الهدف هو تقوية الروابط بين المستخدمين والتفاعل بشكل أكبر مع الأصدقاء والعائلة، وقضاء وقت أقل في استهلاك المحتوى السلبي الذي أثبتت بعض الأبحاث أنه يؤثر في الصحة العقلية للمستخدمين.

الثاني: كشفت عنه الوثائق المسربة، وهو أن بعض الموظفين تحدثوا عن أن الشركة لاحظت انخفاضًا في معدل التفاعل على المنصة، وهو ما أثار قلق القائمين على الشركة، وقد يكون سببًا جزئيًا في تغيير الخوارزمية لضمان تفاعل أكبر.

والعامل الحاسم في هذه المسألة هو الإفصاح عن بيانات معدلات الاستخدام قبل وبعد، وهو أمرٌ لا أظن أنه ممكن من قبل الشركة. ونظرًا لهذه الاعتبارات كلها، فقد وُصفت خوارزمية فيسبوك لاكتشاف المعلومات التي تحض على العنف بأنها "عمياء"؛ ومن الواضح أن هناك تشكيكًا في رغبة فيسبوك نفسه في تطويرها؛ لأن لذلك تأثيرات سلبية على أرباح الشركة وموقعها في السوق، بل إن الوثائق المسربة توضح أن الرئيس التنفيذي قاوم بعض الإصلاحات المقترحة لأنه كان قلقًا من أنها قد تضرّ بالهدف الآخر للشركة، وهو زيادة تفاعل المستخدمين على المنصة، وذلك حسب مذكرة داخلية قدمتها آنا ستيبانوف التي قادت فريقًا لمعالجة انتشار المحتوى الضار والمثير للانقسام على المنصة، وقدمتها إلى زملائها بعد الاجتماع في أبريل/نيسان 2020، وتوضح أن خيار زوكربيرغ هو أنه لن يقايض التغييرات المقترحة بحجم التفاعل على المنصة، وهو الأمر الذي أكدته أيضًا هوغن حين قالت إن زوكربيرغ "سمح باتخاذ خيارات" للترويج لنشر محتوى يحض على الكراهية.

يؤكد ذلك ما خلصت إليه دراسة ديفيد لور، ومفادها أن إخفاقات فيسبوك الأخلاقية ليست نتيجة عرضية، ولا هي مشكلة تقنية؛ بل هي جزء بنيوي من نموذج العمل الذي يكشف عن فجوة وتناقض بين ما هو هدف معلن للشركة من جهة، وواقع ممارستها من جهة أخرى. ففيسبوك يعلن أن مهمته هي تمكين الأشخاص من بناء مجتمع عالمي وتقريب العالم بعضه من بعض، ولكن نموذج عمل فيسبوك يؤكد أنه من المربح أكثر بكثير أن "يفرق بيننا من أن يجمع بيننا".

فإنشاء "فقاعات التصفية" وتصميم خوارزميات وسائل التواصل الاجتماعي قائم على مقصد زيادة المشاركة، ومن ثم تعظيم ما سماه غرف الصدى التي تحقق المزيد من التفاعل الشبكي التراكمي حيث يحقق المحتوى الأكثر تحريضًا أكبر قدر من الانتشار. وعلى هذا يستفيد فيسبوك من انتشار التطرف والبلطجة وخطاب الكراهية والمعلومات المضللة ونظرية المؤامرة والعنف الخطابي، وهذا يعني أن الحلول القائمة على التكنولوجيا لوقف مدّ المحتوى الإشكالي ستفشل دومًا؛ لأن فيسبوك إذا استخدم نموذجًا تجاريًا يركز على توفير معلومات دقيقة ووجهات نظر متنوعة بكفاءة بدلًا من إدمان المستخدمين على محتوى شديد التفاعل داخل غرف الصدى، فإن النتائج من حيث التأثير والربح ستكون مختلفة تمامًا.

ويبدو أن السيناتور ريتشارد بلومنتال كان محقًا جدًا حين كتب في بيان له أن "تصرفات شركة فيسبوك تظهر بوضوح أنها لن تُصلح نفسها بنفسها؛ نحن بحاجة إلى تنظيم أكثر صرامة"، أي إننا في رأيي أمام تحيز بنيوي لا ينفع معه إلا تفكيك مركز السلطة نفسها؛ في مسألة تمس أمن العالم والصحة النفسية والعقلية للعالم أجمع دولًا وأفرادًا.

سياسة الخصوصية

© 2025 جميع الحقوق محفوظة